NIVELACIÓN DE TERRENOS POR REGRESIÓN TRIDIMENSIONAL

JOSEP MARIA FRANQUET BERNIS
ANTONIO QUEROL GÓMEZ

3. RESTANTES ESPECIFICACIONES ESTADÍSTICAS

3.1. El origen de los métodos estadísticos

Una estadística -con minúscula- es un recuento o numeración de los elementos de un conjunto; tal recuento puede realizarse sin ningún conocimiento de la moderna Estadística -con mayúscula- y así, por ejemplo, en el libro de Confucio se cita por Chu-King la estadística industrial y comercial del Gao, realizada 2.238 años antes de Jesucristo, y de todos los cristianos es bien conocida la causa por la que Jesús nace en Belén: sus padres, José y María, hubieron de inscribirse en dicha ciudad, de acuerdo con las normas dictadas por el emperador romano Augusto para realizar el censo de población de todas las provincias de Roma.

Estadísticas análogas a las de nuestros ejemplos (censos de población, agrarios o industriales, variables macroeconómicas, …) se siguen elaborando actualmente en casi todos los países del mundo y la primera necesidad de los métodos estadísticos se presenta al intentar comparar cifras correspondientes a dos conjuntos distintos (dos terrenos diferentes), o bien a distintas partes o subconjuntos de un mismo conjunto (parcelas en el interior de una misma finca).

3.2. La Inferencia Estadística

La Inferencia Estadística, que actualmente se conoce con el nombre de Estadística teórica o matemática, en contraposición con la Estadística Descriptiva, permitirá obtener aquellos “valores medios” de los valores de las variables topográficas a las que nos hemos referido (además de otras características de los elementos del conjunto que se intenta “describir”); pero el origen de la Estadística Teórica se encuentra en el Cálculo de Probabilidades.

El objeto esencial de la Estadística es el de inferir resultados válidos, para un conjunto o población a partir de las observaciones realizadas en una parte, subconjunto o muestra de dicha población. Si, por ejemplo, se quiere conocer la cota media de un terreno, se puede seleccionar un subconjunto (muestra) del mismo mediante la toma de datos altimétricos de una red o malla cuadrangular, como hemos realizado en algunos ejemplos que se pueden encontrar en el presente libro y, a continuación, los métodos estadísticos permiten estimar la cifra que interesa conocer, con unos resultados cuya fiabilidad o exactitud se mide en términos de probabilidad.

La estimación constituye, precisamente, el problema esencial de la inferencia estadística, que presenta distintas modalidades; pero a este problema esencial de la inferencia hay que añadirle el de la contrastación de hipótesis estadísticas para completar el cuadro de la Teoría de la Inferencia. El rigor matemático con el que se resuelve el problema de la contrastación de hipótesis ha sido un potente motor para desarrollar los campos de las ciencias experimentales y de todas las que basan sus teorías en la observación empírica de la realidad.

Los modelos matemáticos que utiliza la inferencia estadística han sido tomados, en general, de los que estudiaba el antiguo Cálculo de Probabilidades y pueden hacer referencia a la estimación de características poblacionales (totales, proporciones, promedios) o a los parámetros “ratios” que establecen las relaciones funcionales entre dos o más variables estadísticas (relación entre la cota taquimétrica y las restantes coordenadas X e Y, por ejemplo).

El segundo problema se conoce en la terminología estadística con el nombre de teoría de la regresión construyéndose una ecuación que puede describir, con suficiente exactitud, el relieve de un terreno determinado. Estos sistemas se denominan modelos matemáticos.

El gran problema de la inferencia estadística es, para Mood, el de proporcionar medidas de la incertidumbre de las conclusiones obtenidas a partir de los datos experimentales , de donde se intuye la extensa lista de posibilidades de aplicación de la ESTADÍSTICA MATEMÁTICA; es decir, todos los problemas de la tecnología y de las ciencias sociales en los que es posible medir los resultados conseguidos al concluir cada experimento aislado, si puede concebirse ilimitada la serie a la que pertenece cada uno de dichos experimentos.

Dentro de la Inferencia Estadística se presentan dos problemas esenciales: los de la estimación y de la contrastación de hipótesis. El primer problema consiste en inferir resultados válidos para un conjunto o población a partir de las observaciones realizadas en una parte, subconjuntos o muestra representativa de dicha población o universo y, utilizando los métodos estadísticos, estimar la cifra que interese. Los métodos de muestreo resuelven en la práctica el problema de la estimación, pero en los manuales corrientes de Estadística esta técnica se refiere a poblaciones infinitas, lo que facilita el tratamiento teórico, pero sus resultados no son aplicables directamente al tratar de inferir estimaciones válidas a partir de una muestra correspondiente a poblaciones finitas.

La contrastación de hipótesis estadísticas constituye la aportación más fecunda de los métodos estadístico-matemáticos para aceptar o rechazar hipótesis y teorías en cualquier campo científico que hayan de contrastarse con la realidad, o también para resolver problemas menos científicos pero de indudable valor práctico, cual es el caso de muchos de los que se plantean en la Topografía.

Para algunos estudiantes de Topografía, acostumbrados a un ambiente en el cual la Estadística (además de ser una asignatura frecuentemente difícil de superar en las Facultades) es contemplada como una especie de dios severo que juzga inexorablemente sobre la significación de los datos y la representatividad de las muestras, puede parecer casi milagroso que con las propuestas que aquí se realizan se abra un extenso campo de utilidades para esta disciplina. De todas formas, si lo pensamos bien, el hecho es coherente con el enfoque que hemos presentado y nada tiene de extraordinario.

3.3. La Estadística Descriptiva

Si el objeto de la inferencia estadística es el de estimar características poblacionales o del conjunto total a partir de observaciones muestrales, cabe preguntarse cuáles son aquellas características o cómo se organizan estos resultados muestrales para estimar los correspondientes valores de la población o universo.

Un promedio es una característica de la distribución de frecuencias, pero tal promedio puede ser más o menos representativo del conjunto según que los valores se concentren o se dispersen más en torno al correspondiente promedio, lo que exige el conocimiento de dicha variabilidad, ya sea mediante estadígrafos de tipo absoluto (desviación media, desviación típica o standard, rango, recorrido intercuartílico, ...) o de tipo relativo (coeficiente de variación de Pearson, coeficiente de variación cuartílica,…). Ello y otras razones originan nuevas características de una distribución de frecuencias. Tanto las distribuciones de frecuencias como el conocimiento de sus características constituyen un objeto esencial de la Estadística Descriptiva. No obstante, se incluyen también en esta materia los métodos estadísticos que conducen a calcular los parámetros que relacionan dos o más variables estadísticas (ecuaciones de regresión lineal o no) o a cuantificar el grado de interdependencia que existe entre tales variables (coeficientes de correlación simples o parciales), así como algunas otras técnicas más específicas para ser utilizadas en determinados campos científicos. Tanto en el presente capítulo como en los capítulos 6, 7 y 8 de nuestro libro hemos incluido diversos ejemplos que pueden resultar suficientemente representativos al respecto de lo que aquí se expone.

Las estadísticas, en general, corresponden a resúmenes numéricos de las observaciones realizadas a los elementos de un determinado conjunto. La recogida de tal información puede realizarse mediante una encuesta censal o muestral, según que la investigación estadística se realice sobre todos y cada uno de los elementos del conjunto o población o bien que se investigue solamente una parte o muestra de los elementos del conjunto (la malla o red de puntos que emplearemos en los levantamientos altimétricos).

La recogida de datos y la elaboración de estadísticas presentan peculiaridades diferentes al tratar de investigar hechos del mundo físico como los que aquí nos ocupan. En estos casos pueden emplearse los métodos de la inferencia estadística para estimar resultados de la población a partir de los observados en la muestra y, también en ambos casos, los errores que se cometen al generalizar los resultados de la muestra al conjunto total se miden y controlan empleando los mismos métodos estadísticos. Debe tenerse en cuenta, al respecto, que la naturaleza no miente cuando se le hace una pregunta y los errores de la contestación solamente deben ser imputables a la mayor o menor precisión de los instrumentos topográficos de medida o a un descuido o impericia del operador (medición de una magnitud, por ejemplo).

El conocimiento de la Estadística Descriptiva (ALCAIDE et alt., 1987) permite encontrar una imagen empírica de los conceptos más abstractos incluidos en las teorías frecuencialistas de la probabilidad. Por ejemplo, la probabilidad de un suceso coincide con la correspondiente frecuencia relativa si tal frecuencia viene referida a una población en lugar de a una muestra y, por tanto, coinciden también los conceptos de esperanza matemática y media aritmética, varianza de una variable aleatoria y de la población observada, distribución de probabilidad y distribución de frecuencias, etc.

3.4. Aplicación de los “métodos robustos” en el análisis de las variables altimétricas

Hay que considerar que el empleo de las modernas técnicas de la “inferencia estadística robusta” en el estudio de las series cronológicas o temporales -aunque, desde luego, sin ofrecer grandes variaciones en los resultados finales- podría afinar aún más algunos de los resultados obtenidos. Dichos estudios podrían complementarse desarrollando más el tema de la “cointegración” de las series temporales y analizar, incluso, funciones periódicas y series de Fourier mediante el Cálculo de Variaciones clásico.

Aunque puede afirmarse que la Estadística tuvo su origen en los censos romanos de población , sus métodos, tal como los conocemos hoy en día, se deben fundamentalmente a Sir Ronald Aylmer Fisher , quien en su trabajo del año 1922 (Sobre los fundamentos matemáticos de la Estadística Teórica) estableció los principios a partir de los cuales se fueron desarrollando las diversas técnicas y métodos que actualmente utilizamos. Sin embargo, su correcta aplicación requiere de condiciones muy rígidas, tales como un modelo probabilístico fijo (habitualmente la distribución normal) en el que sólo queden indeterminados uno o dos parámetros (la media y/o su varianza). Pero tal restricción o condicionante supone un problema, ya que los modelos probabilísticos más utilizados rara vez se ajustan bien al fenómeno aleatorio observado en la realidad de un terreno cuya explanación óptima se pretende, razón por la cual los resultados obtenidos bajo tales supuestos dejan de ser válidos incluso en situaciones muy cercanas a la modelizada bajo la cual se obtuvieron.

Por estas razones surgieron los denominados “Métodos Robustos”, aunque su origen se supone remoto. Rey (1978) lo sitúa en la antigua Grecia, en donde los sitiadores contaban las capas de ladrillos de algunos muros de la ciudad sitiada y tomaban la moda (valor más frecuente) de los recuentos al objeto de determinar la longitud de las escalas a utilizar en el asalto. De esta forma, la estimación realizada no se veía afectada por los valores extremos de la variable aleatoria estadística, procedentes de murallas muy altas o muy bajas. No obstante, fue en 1964 cuando, de la misma manera que los trabajos de R.A. Fisher dotaron a la Estadística del rigor matemático del que hasta entonces carecía, el artículo de Peter Huber titulado Estimación robusta de un parámetro de localización abrió las puertas de la precisión matemática en robustez y, por ende, las del reconocimiento científico. Posteriores trabajos suyos, así como las aportaciones fundamentales de Frank Hampel en los años 1971 y 1974, en las cuales definió los conceptos de “robustez cualitativa” y la “curva de influencia”, terminaron de poner los cimientos de los métodos robustos, tal y como son conocidos hoy en día.

De hecho, la introducción de los Métodos Robustos en la ciencia Estadística fue motivada -básicamente, aunque no de forma exclusiva- por la gran sensibilidad a los datos anómalos (outliers en la terminología anglosajona) de los estimadores generalmente utilizados. No obstante, a pesar de la relación existente entre el análisis de outliers y los Métodos Robustos, ambos campos han seguido desarrollos y caminos independientes.

Una de las primeras ideas que sugiere la presencia de datos anómalos en una serie determinada de variables topográficas, entendidas éstas como cifras sorprendentemente alejadas del grupo principal de observaciones, es la de su rechazo o eliminación, con objeto de reparar o limpiar la serie, antes de realizar inferencias con ella.

Esta idea hállase reflejada en numerosas publicaciones existentes sobre el tema. Así, por ejemplo, puede leerse en el trabajo de Ferguson (1961) que “... el problema que se plantea en el tratamiento de los datos anómalos es el de introducir algún grado de objetividad en su rechazo...”, dando por supuesto que los datos anómalos son necesariamente erróneos y que, por tanto, deben de ser eliminados. Pero ello no es más que una de las posibles opciones a considerar en el tratamiento de los datos anómalos, puesto que no siempre son necesariamente erróneos.

En definitiva, los datos pueden ser o parecer anómalos en relación con el modelo supuesto, por lo que una posible alternativa a su rechazo es la de su incorporación, ampliando el modelo. Ello nos llevaría a una nueva definición de outlier, a saber: “aquella observación que parece ser inconsistente con el resto de los valores de la serie, en relación con el modelo supuesto”. Desde luego, en la definición anterior aparece una componente ciertamente subjetiva en la calificación o conceptualización de un dato como “anómalo”. Existe una manera más objetiva de poder llegar a tal conclusión. Se trata de utilizar unos tests de hipótesis, denominados tests de discordancia, que están basados en unos estadísticos o estadígrafos para los que es posible determinar, o al menos tabular, su distribución en el muestreo. Mediante dichos tests podemos calificar a uno o varios datos como discordantes -esto es, valores que resultan significativos en un test de discordancia- y como consecuencia podemos, como hemos visto:

                        
A pesar del esfuerzo realizado para conseguir una calificación objetiva de los datos, el carácter subjetivo permanece, en cierta medida, en los tests de discordancia, tanto en su nivel de significación como en la propia elección del contraste a considerar. Además, como en todo test de hipótesis, los tests de discordancia no son simétricos; es decir, no son tratadas de igual manera la hipótesis nula de ausencia de outliers en la serie que la alternativa de, por ejemplo, tres outliers a la derecha. Y una vez concluido el test, deberían considerarse los dos tipos de error asociados al test. Pero lo peor de proceder de tal suerte, rechazando los outliers y luego utilizando los métodos clásicos, reside en la pérdida de eficiencia con respecto a la utilización de Métodos Robustos.

Otro problema adicional relacionado con el tratamiento de outliers es que éstos no sólo se presentan en situaciones simples, sino que también aparecen en situaciones más estructuradas, como puede ser el caso de las series de variables topográficas que nos ocupan. En estas situaciones, los datos anómalos tenderán a ser menos aparentes, siendo en ocasiones la discrepancia con el modelo propuesto lo que conferirá “anomalía” al dato. Así, por ejemplo, en una regresión minimocuadrática (simple o múltiple, lineal o no) la anomalía consistirá en no estar alineado con el resto de las observaciones.

Ahora bien, el ser anómalo no consiste necesariamente en ser extremo; puede encontrarse en el grupo principal de observaciones y ser tratado como “anómalo”.

Por tanto, el término modelo, en la definición de outlier que hemos dado anteriormente, debe entenderse en un sentido bastante amplio.

Digamos, como resumen y síntesis de lo expuesto en el presente apartado de nuestro libro, que mientras los tests de discordancia tienen como objetivo el estudio de los outliers en sí mismos, proponiendo como acción ante la presencia de un outlier alguno de los tres puntos anteriormente reseñados, los Métodos Robustos están diseñados para realizar inferencias sobre el modelo, reduciendo la posible influencia que pudiera tener la presencia de datos anómalos. De hecho, los Métodos Robustos son denominados, en ocasiones, Técnicas de acomodación de outliers. Es decir, en los tests de discordancia los outliers constituyen el objetivo, mientras que en los Métodos Robustos, cuya aplicación al estudio de la predicción de las variables topográficas que aquí propugnamos, son precisamente el mal a evitar.

3.5. La comparación de medias

Por lo que se refiere a la caracterización del valor central de la distribución de las variables topográficas, veamos que G. Udny Yule , estadístico inglés, en su "Introducción a la Teoría de la Estadística", ha precisado las condiciones que debe cumplir también una buena caracterización del valor central de una serie de medidas altimétricas. En resumen, son las siguientes:
a) La característica del valor central debe ser definida objetivamente a partir de los datos de la serie, sin que haya lugar a intervenir ninguna apreciación subjetiva del estadístico.

b) Debe depender de todas las observaciones de la serie, a ser posible. Señalemos que, no obstante, hay veces que se plantea el problema de decidir si debe tenerse en cuenta una observación (“outlier”) que es notablemente distinta de todas las demás de su conjunto o si puede ser rechazada por considerar que tal observación tiene carácter excepcional debido a algún factor extraño a la serie como, por ejemplo, un error de observación. En este sentido, recomendamos la aplicación de los denominados “métodos robustos”, tal como se propugna en el presente capítulo de nuestro libro.

c) Debe tener, en la medida de lo posible, una significación concreta, sencilla y fácil de comprender. Si se tiene en cuenta que muchos de los valores centrales de las series han de ser utilizados por personas poco familiarizadas con la Estadística, se comprende la preferencia que en la realidad se ha dado a la media aritmética como característica del valor central de que goza esta propiedad, de una interpretación sencilla.

d) Debe ser de cálculo fácil y rápido.

e) Debe ser poco sensible a las fluctuaciones del muestreo. Frecuentemente las observaciones se efectúan, no sobre el conjunto completo o “universo” de elementos a estudiar, sino sobre una parte de éstos que recibe el nombre de “muestra”, que debe ser suficientemente representativa de dicho “universo” y tener el tamaño adecuado. La presente consideración resulta particularmente interesante en el caso del estudio de un número determinado de vértices referido al conjunto de un terreno o parcela. Las observaciones hechas sobre los elementos componentes de la muestra constituyen la serie estadística de la cual se determina el valor central. Es evidente que "a priori" no puede asegurarse que el valor central correspondiente a la muestra adoptada coincida con el valor central que se obtendría si se hiciese una serie estadística que abarcase todo el conjunto completo de elementos a estudiar, ni que coincidan siquiera con los correspondientes a distintas muestras que se eligiesen al azar. Ahora bien, dado que en la práctica se procede casi siempre por muestreo, conviene que la característica elegida del valor central sea de tal naturaleza que dicho valor central sea sensiblemente el mismo para las distintas muestras. Conviene hacer notar, al respecto, que esta elección del valor central sólo será posible cuando se conozca la ley de distribución del fenómeno en estudio; la variación del valor central y de otros estadísticos en las distintas muestras entra de lleno en la parte de la Teoría Estadística conocida  por la denominación de “Teoría de las Muestras”.

f) Debe ser adecuada a los cálculos algebraicos posteriores. Se comprende fácilmente la importancia de tal condición con sólo pensar en el caso muy frecuente de tratar de determinar el valor central que corresponde a una serie global resultado de reunir varias series estadísticas parciales.

De entre las cuatro medias que se podrían emplear en este tipo de trabajos topográficos (aritmética, geométrica, cuadrática y armónica) se ve inmediatamente que la aritmética es la que mejor reúne las anteriores condiciones de Yule, si bien ni ella ni las otras tres proporcionan indicación alguna acerca de la repartición de los datos de la series o de sus posiciones respectivas ni sobre las desviaciones de unos respecto a otros. Se limitarán a condensar todos los datos de la serie en uno solo, la media, como síntesis de todos ellos.

En particular, las medias aritmética y cuadrática dan mucho relieve a los elementos grandes de la serie y, desde luego, la segunda todavía más que la primera. Por el contrario, las medias geométrica y armónica destacan la influencia de los valores pequeños y reducen la influencia de los valores grandes, lo que habrá que tener bien presente en los trabajos de Topografía como los altimétricos que aquí nos ocupan.

Hay otra característica de las medias que a primera vista parece deseable, pero que puede no serlo: tienen en cuenta cada caso individual. A veces, las muestras de cotas taquimétricas contienen observaciones muy pequeñas o muy grandes en función de lo abrupto del terreno a nivelar, o bien de la presencia de cimas de colinas o fondos de vaguadas, que hállanse tan alejadas del cuerpo principal de los datos (outliers) que parece discutible si resulta apropiado incluirlas en la muestra. Cuando tales valores, denominados “aislados”, se promedian con los otros valores más representativos, pueden afectar a la media hasta tal grado que su mérito, como descripción relevante y significativa del “centroide” de los datos, se hace altamente cuestionable. En todo caso, los datos aislados de resultas de errores groseros en los cálculos, de anotaciones perversas en el registro de datos (libreta de campo, archivos informáticos), del mal funcionamiento del equipo topográfico, etc., se pueden identificar con frecuencia en cuanto a su fuente y simplemente se eliminan o depuran del conjunto de cotas antes de promediarlas.

Pues bien, en vez de omitir los datos aislados a los que hemos hecho referencia y calcular una especie de “media modificada” para tratar de evitar la dificultad mencionada, se podría describir el centroide de la parcela en estudio mediante otra medida de situación o valor central llamada mediana. Por definición, en una distribución unitaria de frecuencias, la mediana de un conjunto de datos es el valor del elemento central (si el número de vértices o estacas levantadas es impar) o bien la semisuma de los dos elementos centrales (si el número de vértices es par) cuando dichos datos están ordenados, es decir, dispuestos en orden de magnitud creciente o decreciente. En el caso de una distribución de frecuencias estructurada por intervalos de clase, el cálculo de la mediana viene dado por la fórmula correspondiente cuyo origen no procede especificar aquí. A diferencia de la media, pues, la mediana no se afecta fácilmente con los valores extremos.

La mediana, como la media, siempre existe y es única para cada conjunto de datos. En su contra tiene la tediosidad de lo que representa ordenar manualmente grandes conjuntos de datos (aunque el ordenador puede suplir la expresada carencia) y, lo que es peor desde el punto de vista de la inferencia estadística: una mediana de una muestra de cotas del terreno no es, en general, una estimación tan fiable de una media del conjunto como lo es la media aritmética o esperanza matemática de los mismos datos. De hecho, las medianas de muchas muestras tomadas de la misma población o universo suelen variar más ampliamente que las correspondientes medias de las muestras.

Recordemos, por último, que los promedios o valores centrales de la distribución de probabilidad deben calcularse a partir de datos homogéneos y numerosos, condiciones ambas inherentes a toda buena estadística en materia de tratamiento de las variables topográficas.


(tradicionalmente 551 adC - 479 adC). Fue un filósofo chino, también uno de los 5 Santos de las 5 Grandes Religiones, creador del confucianismo y una de las figuras más influyentes de la historia china. Las enseñanzas de Confucio han llegado hasta nuestros días gracias a las “Analectas”, que contienen algunas de las discusiones que mantuvo con sus discípulos.

MOOD (1955): Introducción a la Teoría de la Estadística: p. 5.

Jean Baptiste Joseph Fourier, nacido en 1768, muerto el 16 de mayo de 1830, fue un matemático francés conocido principalmente por su contribución al análisis matemático en el flujo del calor. Educado para el sacerdocio, Fourier no tomó sus votos pero en cambio se convirtió en matemático. Primero estudió (1794) y más tarde enseñó matemática en la recientemente creada École Normale. Se unió al (1798) ejército de Napoleón Bonaparte en su invasión a Egipto como consejero científico, ayudó allí a establecer medios educativos y llevó a cabo exploraciones arqueológicas. Después de su retorno a Francia en 1801 fue nombrado prefecto del departamento de Isère por Napoleón. A lo largo de su vida Fourier siguió su interés en matemáticas y físicas matemáticas. Llegó a ser famoso por su Théorie analytique de la Chaleur (1822), un tratado matemático de la teoría del calor. Estableció la ecuación diferencial parcial que gobierna la difusión del calor y la resolvió usando series infinitas de funciones trigonométricas. Aunque estas series habían sido usadas antes, Fourier las investigó de una manera más detallada. Su investigación, inicialmente criticada por su falta de rigor, fue más tarde mostrada para ratificar su valor. Proveyó el ímpetu para trabajar más tarde en series trigonométricas y la teoría de funciones de variables reales.

Entre ellos, el más famoso posiblemente, y que ya ha sido citado, sea el ordenado por el emperador César Augusto, que obligó a trasladarse a sus padres, José y María, a la ciudad de Belén de Judea, donde nació Jesús (de Nazareth) en un humilde pesebre.

(Londres, 1890-Adelaida, Australia, 1962). Matemático y biólogo británico. Se graduó por la Universidad de Cambridge en 1912. Pionero en la aplicación de métodos estadísticos al diseño de experimentos científicos, en 1919 comenzó a trabajar en la estación experimental de Rothamsted, donde realizó trabajos estadísticos relacionados con la reproducción de las plantas. Desarrolló técnicas para obtener mayor cantidad de información útil a partir de muestras de datos más pequeñas, introdujo el principio de aleatoriedad en la recogida de muestras y el análisis de la varianza o análisis multivariacional. Fisher realizó muchos avances en el campo de la estadística, siendo una de sus más importantes contribuciones, la inferencia estadística descubierta por él en el año 1920. Publicó su metodología estadística en 1925 en Methods for Research Workers. Trasladó sus investigaciones al campo de la genética en The Genetical Theory of Natural Selection (1930), que resume sus puntos de vista sobre la eugenesia y el papel de control que ejercen los genes sobre los caracteres dominantes, y en el que considera la selección como la fuerza directriz de la evolución, más que la mutación. En 1933 ocupó la cátedra Galton de eugenesia en la Universidad de Londres, y de 1943 a 1957, la cátedra Balfour de genética en la Universidad de Cambridge. Los últimos años de su vida los pasó trabajando para la Commonwealth Scientific and Industrial Research Organization en Adelaida.

George Udny Yule, inglés con estudios de ingeniería y física, fue un colaborador de Pearson, que hizo algunos aportes a la obra de este último. Trabajó en correlación, y también en curvas asimétricas, como su predecesor. Colaboró en la publicación de Pearson, proporcionando un ejemplo de la aplicación de ajuste de una curva asimétrica a datos sobre distribución de la pobreza en Inglaterra y Gales. Pero luego se movió en direcciones independientes. Relacionó la regresión con el método de los mínimos cuadrados, proporcionando un gran conjunto de algoritmos que habían desarrollado los astrónomos, para la solución de las ecuaciones normales, asociadas al cálculo de la regresión. Los trabajos publicados por Yule cubren hasta la primera década del siglo XX.

Volver al índice.
Enciclopedia Virtual
Tienda
Libros Recomendados


1647 - Investigaciones socioambientales, educativas y humanísticas para el medio rural
Por: Miguel Ángel Sámano Rentería y Ramón Rivera Espinosa. (Coordinadores)

Este libro es producto del trabajo desarrollado por un grupo interdisciplinario de investigadores integrantes del Instituto de Investigaciones Socioambientales, Educativas y Humanísticas para el Medio Rural (IISEHMER).
Libro gratis
Congresos

15 al 28 de febrero
III Congreso Virtual Internacional sobre

Desafíos de las empresas del siglo XXI

15 al 29 de marzo
III Congreso Virtual Internacional sobre

La Educación en el siglo XXI

Enlaces Rápidos

Fundación Inca Garcilaso
Enciclopedia y Biblioteca virtual sobre economía
Universidad de Málaga